Wer ernsthaft mit KI-Automatisierung arbeitet, stößt früher oder später auf das Problem, dass KI-Agenten oft nicht zuverlässig mit externen Tools kommunizieren. Besonders bei selbstgehosteten Lösungen fehlt es häufig an Struktur, Wiederverwendbarkeit und Flexibilität. Genau an dieser Stelle setzt MCP – das Model Context Protocol – an. In Kombination mit n8n und Docker lässt sich damit in kürzester Zeit ein skalierbarer, KI-gesteuerter Agent aufbauen, der externe Tools intelligent ansteuert.
In diesem Artikel zeigen wir, wie man n8n lokal mit Docker aufsetzt, MCP integriert und einen funktionsfähigen KI-Agenten erstellt, der z. B. mit Brave Search zusammenarbeitet – vollständig lokal, ohne komplexe Programmierung und unabhängig von Cloudlösungen.
‍
Was ist Docker – und warum ist es die ideale Grundlage?
Docker ist eine Open-Source-Plattform, mit der sich Anwendungen in sogenannten Containern ausführen lassen. Diese Container sind abgeschlossene, portable Laufzeitumgebungen, die auf jeder Maschine gleich funktionieren – unabhängig vom Betriebssystem oder von Abhängigkeiten anderer Programme.
Im Kontext von n8n und MCP bietet Docker folgende Vorteile:
- Anwendungen laufen reproduzierbar – auf jedem System identisch
- Installationen sind isoliert und sauber voneinander getrennt
- Komplexe Setups lassen sich als einmalige Konfiguration abspeichern
- Änderungen sind rückverfolgbar und leicht rückgängig zu machen
Weitere Informationen und Download unter: www.docker.com
‍
Schritt-fĂĽr-Schritt: n8n lokal mit Docker installieren
Das Setup aus dem Video lässt sich wie folgt zusammenfassen:
- Docker Desktop installieren
Die aktuelle Version ist ĂĽber die offizielle Docker-Website verfĂĽgbar. - Node.js installieren
Notwendig, um MCP-spezifische Befehle lokal ausführen zu können. - n8n Docker-Container starten
- Das Image
n8nio/n8n
in Docker Desktop suchen und laden - Container erstellen, z. B. mit dem Namen
n8n-container
- Port
5678
freigeben - Volume festlegen (z. B.
C:\Users\Du\n8n-data
fĂĽr Windows)
- Das Image
- Umgebungsvariable setzen
Damit Community Nodes wie MCP funktionieren, ist folgende Variable erforderlich:N8N_COMMUNITY_PACKAGES_ALLOW_USAGE=true
- n8n starten und öffnen
Ăśber den Browser unterhttp://localhost:5678
zugänglich
‍
MCP in n8n integrieren – Agenten durchdacht erweitern
MCP (Model Context Protocol) wurde von Anthropic entwickelt und standardisiert die Kommunikation zwischen KI-Modellen und externen Tools. In n8n kann MCP ganz einfach über die Community Node „n8n-nodes-mcp“ eingebunden werden.
So funktioniert die Integration:
- In den n8n-Einstellungen „Community Nodes“ öffnen
n8n-nodes-mcp
suchen und installieren- Sicherheitshinweis (unverifizierter Code) akzeptieren
Nach der Installation stehen neue Nodes zur Verfügung, mit denen sich Tools automatisch erkennen, auflisten und verwenden lassen – exakt so, wie es ein KI-Agent benötigt.
‍
Intelligenten Workflow mit OpenAI & Brave Search bauen
Ein vollständiger KI-Workflow in n8n mit MCP kann wie folgt aufgebaut werden:
- Trigger
Der Workflow startet z. B. mit einem Signal wie „On Agent Start“. - KI-Agent
Eingebunden über die Node „Advanced AI“- Modell: OpenAI Chat (z. B. GPT-4 Turbo)
- Zugang via API Key
- Gedächtnis aktivieren
Mit dem Modul „Simple Memory“ kann sich der Agent Kontexte merken. - MCP-Nodes nutzen
- „List Tools“ ruft alle verfügbaren Tools ab
- „Execute Tool“ führt ein vom Agenten ausgewähltes Tool aus
- System-Prompt definieren
Beispiel fĂĽr den Prompt:
„Du bist ein KI-Automatisierungsagent. Liste alle verfügbaren Tools auf, wähle das passendste und führe es aus.“ - Tool einbinden (z. B. Brave Search)
Brave Search API Key einfĂĽgen und Parameter dynamisch anpassen
Beispiel-Input: „Finde die 10 besten Cafés in Berlin“
Der Agent übernimmt danach den gesamten Ablauf: Auswahl des Tools, Ausführung und Ausgabe der Ergebnisse. Und das vollständig dynamisch – ohne manuelles Routing oder fest verdrahtete Pfade.
‍
Vorteile von MCP gegenĂĽber klassischen KI-Agenten
Im Gegensatz zu fest verdrahteten Tool-Integrationen bringt MCP mehrere Vorteile:
- Tool-Aufrufe folgen einem standardisierten Schema.
- Ergebnisse sind zuverlässig und reproduzierbar.
- Tool-Beschreibungen sind modular und wiederverwendbar.
- Neue Tools können ohne Codeänderung eingebunden werden.
Der KI-Agent muss die Logik des Tools nicht „erraten“, sondern erhält über den MCP-Server eine strukturierte Beschreibung aller verfügbaren Tools, inklusive Eingabeparametern und Ausgabeformaten.
‍
Das komplette Setup im Video
Im Video-Tutorial wird der gesamte Ablauf noch einmal visuell erklärt – vom Setup über den Containerstart bis zum funktionsfähigen Agenten mit Toolauswahl.
Titel: Self-Hosted n8n + MCP mit Docker – Smarte KI-Agenten in Minuten
Direkt anschauen: YouTube-Link zum Video
‍
Fazit
Mit n8n, Docker und dem Model Context Protocol lassen sich in kurzer Zeit leistungsstarke, selbstgehostete KI-Agenten aufbauen, die zuverlässig mit externen Tools arbeiten. MCP bringt Struktur, Standardisierung und Flexibilität in eine Welt, die oft von improvisierten Tool-Integrationen geprägt ist.
Ob für Entwickler, Automatisierungsprofis oder KI-Enthusiasten – dieses Setup ist nicht nur produktionsreif, sondern auch ideal für individuelle Erweiterungen. Wer einen ersten Schritt in Richtung intelligenter, modularer KI-Systeme gehen will, hat mit MCP und n8n eine stabile und zukunftssichere Basis.
‍